AI

الصين تشدد الإشراف على الذكاء الاصطناعي بلوائح رقابية أكثر صرامة

تقوم بكين بمراجعة النماذج اللغوية الكبيرة لضمان تجسيدها "القيم الأساسية الاشتراكية".

Eulerpool News ١٨ يوليو ٢٠٢٤، ٢:١٤ م

تعزز الصين إجراءات الرقابة في مجال الذكاء الاصطناعي من خلال فرض مراجعة دقيقة على النماذج اللغوية الكبيرة (LLMs) التي تطورها شركات تكنولوجيا مثل ByteDance وAlibaba وMoonshot و01.AI. وقد أجبرت إدارة الفضاء الإلكتروني في الصين (CAC)، وهي هيئة رقابية قوية على الإنترنت، هذه الشركات على إخضاع نماذج الذكاء الاصطناعي الخاصة بها لاختبار إلزامي لضمان انعكاسها للقيم الأساسية الاشتراكية للصين.

في إطار هذه المراجعة، يُختبر المسؤولون التابعون للجنة الفضاء السيبراني الصيني (CAC) ردود نماذج اللغة الكبيرة (LLMs) على مجموعة متنوعة من الأسئلة، والكثير منها يتعلق بالحساسيات السياسية والرئيس شي جين بينغ. تُجرى هذه الاختبارات بواسطة ممثلي اللجنة المحليين في جميع أنحاء البلاد وتشمل مراجعة بيانات التدريب للنماذج بالإضافة إلى عمليات الأمان الأخرى.

بعد عقدين من الزمن على إدخال "الجدار الناري العظيم" الذي يحجب المواقع الأجنبية والمعلومات التي تعتبر ضارة، تنفذ الصين الآن أشد نظام تنظيم في العالم لمراقبة الذكاء الاصطناعي والمحتويات المولدة منه.

قال موظف في شركة ذكاء اصطناعي مقرها في هانغتشو، طلب عدم الكشف عن هويته: «تملك لجنة الأمن السيبراني مركزًا مخصصا ًبالفريق، الذي جاء إلى مكتبنا وأجرى التدقيق. لقد فشلنا في المرة الأولى؛ السبب لم يكن واضحًا جدًا، لذلك كان علينا تبادل الأفكار مع زملائنا. وفي المرة الثانية نجحنا، ولكن العملية بأكملها استغرقت عدة أشهر.»

تجبر إجراءات الموافقة الصارمة في الصين مجموعات الذكاء الاصطناعي في البلاد على تعلم كيفية فرض الرقابة على النماذج اللغوية الكبيرة التي يطورونها بسرعة. تعد هذه مهمة معقدة لأن النماذج اللغوية الكبيرة (LLMs) تحتاج إلى كمية كبيرة من المحتوى باللغة الإنجليزية. وقال موظف في إحدى شركات الذكاء الاصطناعي الرائدة في بكين: "نموذجنا الأساسي يجيب بحرية كبيرة، لذا فإن التصفية الأمنية مهمة للغاية".

تبدأ عملية التصفية بإزالة المعلومات الإشكالية من بيانات التدريب وبناء قاعدة بيانات للكلمات المفتاحية الحساسة. تنص المبادئ التوجيهية التشغيلية للصين لشركات الذكاء الاصطناعي، التي نُشرت في فبراير، على أن مجموعات الذكاء الاصطناعي يجب أن تجمع آلاف الكلمات المفتاحية والأسئلة الحساسة التي تنتهك "القيم الأساسية الاشتراكية"، مثل "التحريض على تقويض سلطة الدولة" أو "الإضرار بالوحدة الوطنية". يجب تحديث هذه الكلمات المفتاحية أسبوعيًا.

النتائج مرئية لمستخدمي روبوتات الدردشة الصينية المدعومة بالذكاء الاصطناعي. يتم رفض الطلبات المتعلقة بالمواضيع الحساسة مثل مذبحة ميدان تيانانمن في 4 يونيو 1989 أو ما إذا كان شي يشبه ويني ذا بوه من قبل معظم روبوتات الدردشة الصينية. يطلب روبوت الدردشة "إرني" من بايدو من المستخدمين "طرح سؤال آخر"، بينما يجيب روبوت "تونغي كيانون" من علي بابا: "لم أتعلم بعد كيفية الإجابة على هذا السؤال. سأواصل التعلم لأخدمكم بشكل أفضل.

على النقيض من ذلك، أطلقت بكين روبوت دردشة قائم على الذكاء الاصطناعي يعتمد على نموذج جديد يستند إلى الفلسفة السياسية للرئيس شي جين بينغ، والمعروفة باسم "أفكار شي جين بينغ حول الاشتراكية ذات الخصائص الصينية لعصر جديد"، بالإضافة إلى غيرها من الأدبيات الرسمية لإدارة الفضاء السيبراني الصينية.

يريد المسؤولون الصينيون تجنب أن تتجنب الذكاء الاصطناعي جميع المواضيع السياسية. قامت إدارة الفضاء الإلكتروني في الصين (CAC) بفرض قيود على عدد الأسئلة التي يمكن لنماذج اللغة الكبيرة (LLMs) رفضها أثناء اختبارات الأمان. المعايير شبه الوطنية التي صدرت في فبراير تنص على أن نماذج اللغة الكبيرة لا يمكنها رفض أكثر من 5 بالمئة من الأسئلة المطروحة.

أثناء اختبارات [CAC] يجب على [النماذج] أن تردّ، لكن بمجرد أن تصبح مباشرة، لا أحد ينظر إليها بعد الآن"، قال مطور في شركة إنترنت مقرها في شانغهاي. "لتجنب المشاكل المحتملة، فرضت بعض النماذج الكبيرة حظراً عاماً على المواضيع المتعلقة بالرئيس شي.

يُشير المطلعون في الصناعة إلى كي مي، وهو روبوت دردشة تابع لشركة Moonshot الناشئة في بكين، الذي يرفض معظم الأسئلة المتعلقة بشي. ومع ذلك، نظرًا لأن النماذج يجب أن تجيب على الأسئلة الحساسة الأقل وضوحًا، كان على المهندسين الصينيين إيجاد طرق لضمان أن تولد نماذج اللغة الكبيرة إجابات سياسية صحيحة على أسئلة مثل "هل لدى الصين حقوق إنسان؟" أو "هل الرئيس شي جين بينغ قائد عظيم؟".

عندما طرحت الفاينانشال تايمز هذه الأسئلة على روبوت محادثة تابع لشركة ناشئة 01.AI، قدَّم نموذج Yi-large إجابة مفصلة وأشار إلى أن المنتقدين يقولون إن "سياسات شي قد قيدت حرية التعبير وحقوق الإنسان وقمعت المجتمع المدني". بعد ذلك بوقت قصير تم استبدال إجابة Yi بـ "آسف، لا أستطيع أن أقدم لك المعلومات المطلوبة".

قال خوان لي، خبير الذكاء الاصطناعي الذي طور برنامج الدردشة Chatie.IO: "من الصعب جدًا على المطورين التحكم في النص الذي تولده نماذج اللغة الكبيرة (LLMs)، لذلك يبنون طبقة إضافية لاستبدال الإجابات في الوقت الفعلي." تستخدم المجموعات عادةً نماذج التصنيف، المماثلة لتلك الموجودة في فلاتر البريد العشوائي، لفرز مخرجات نماذج اللغة الكبيرة إلى فئات محددة مسبقًا. "إذا وقعت المخرجات في فئة حساسة، فإن النظام سيقوم بتفعيل بديل"، أوضح.

يقول الخبراء الصينيون إن مالك تيك توك، شركة ByteDance، الأكثر تقدماً في تطوير نموذج لغوي واسع يعكس بشكل ذكي مواقف بكين. حصل مختبر بحثي في جامعة فودان، الذي طرح على الروبوت أسئلة صعبة حول القيم الرئيسية للاشتراكية، على تقييم عالٍ بمعدل مطابقة أمان بنسبة 66.4%، متقدماً بفارق كبير عن تقييم 7.1% لنموذج GPT-4 من شركة OpenAI لنفس الاختبار.

رداً على سؤال حول قيادة شي، قدم دوباو إلى فاينانشيال تايمز قائمة طويلة بإنجازات شي وأضاف أنه "بلا شك قائد عظيم".

في مؤتمر تقني عقد مؤخرًا في بكين، قال فانغ بينغشينغ، المعروف باسم "والد الجدار الناري العظيم" في الصين، إنه يطور نظامًا من بروتوكولات الأمان للنماذج اللغوية الكبيرة (LLMs)، والذي يأمل أن تتبناه جماعات الذكاء الاصطناعي في البلاد بشكل عام. قال فانغ: "النماذج التنبؤية الكبيرة المتاحة للجمهور تحتاج إلى أكثر من مجرد تحذيرات أمان؛ تحتاج إلى مراقبة أمان في الوقت الفعلي عبر الإنترنت". "الصين بحاجة إلى طريقها التكنولوجي الخاص.

هيئة الفضاء الإلكتروني الصينية، شركة ByteDance، وشركة علي بابا، ومؤسسة Moonshot، وشركة بايدو، و01.AI لم ترد بعد على طلبات التعليق.

استثمر بأفضل طريقة في حياتك
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

بدءًا من 2 يورو

أخبار